
لاما برای استارتآپها، هدف جدید متا
متا با برنامه "لاما برای استارتآپها" پیشگامی خود را در هوش مصنوعی تقویت میکند، سرمایهگذاری و حمایت مستقیم برای توسعه نسل بعدی هوش مصنوعی
متا (Meta) با هدف تقویت جایگاه خود در رقابت فشرده هوش مصنوعی، برنامه جدیدی با عنوان "لاما برای استارتآپها" (Llama for Startups) راهاندازی کرده است. این برنامه به استارتآپهای فعال در زمینه هوش مصنوعی مولد (Generative AI) امکان دسترسی مستقیم به تیم متخصص لاما، پشتیبانی فنی و در مواردی کمک مالی را فراهم میکند تا توسعه راهحلهای نوآورانه هوش مصنوعی را تسریع بخشد.
شرایط و مزایای برنامه "لاما برای استارتآپها"
استارتآپهای واجد شرایط در ایالات متحده میتوانند تا تاریخ ۳۰ می (May) برای شرکت در این برنامه درخواست دهند. شرایط اولیه برای شرکت در این برنامه شامل موارد زیر است:
- شرکت ثبت شده باشد.
- کمتر از ۱۰ میلیون دلار سرمایه جذب کرده باشد.
- حداقل یک توسعهدهنده در تیم خود داشته باشد.
- در حال ساخت برنامههای کاربردی هوش مصنوعی مولد باشد.
متا در یک پست وبلاگی اعلام کرده است که اعضای این برنامه ممکن است ماهانه تا ۶۰۰۰ دلار و به مدت حداکثر شش ماه کمک مالی دریافت کنند تا هزینههای توسعه و ارتقای راهحلهای هوش مصنوعی مولد خود را جبران کنند. کارشناسان متا نیز به صورت نزدیک با این استارتآپها همکاری خواهند کرد تا آنها را در مراحل اولیه و در جهت کشف کاربردهای پیشرفته مدلهای لاما یاری رسانند.
رقابت فشرده در حوزه مدلهای هوش مصنوعی متنباز
راهاندازی برنامه "لاما برای استارتآپها" در حالی صورت میگیرد که متا تلاش میکند جایگاه پیشتاز خود را در فضای بهشدت رقابتی مدلهای متنباز (Open Model) تثبیت کند. با وجود اینکه مدلهای لاما تاکنون بیش از یک میلیارد بار دانلود شدهاند، رقبایی مانند DeepSeek، گوگل (Google) و Qwen از علیبابا (Alibaba) تلاش میکنند تا اکوسیستم مدلهای گسترده متا را به چالش بکشند.
چالشها و چشمانداز آینده لاما
مدلهای لاما در ماههای اخیر با چالشهایی روبرو بودهاند. هفته گذشته، وال استریت ژورنال (Wall Street Journal) گزارش داد که متا عرضه مدل پرچمدار هوش مصنوعی خود، Llama 4 Behemoth، را به دلیل نگرانی از عملکرد ضعیف آن در بنچمارکهای کلیدی به تأخیر انداخته است. در ماه آوریل، متا مجبور شد از اتهامات مربوط به تقلب در بنچمارک محبوب هوش مصنوعی، LM Arena، دفاع کند. این شرکت نسخهای از مدل Llama 4 Maverick خود را که برای "مکالمه" بهینهسازی شده بود، برای کسب امتیاز بالا در LM Arena استفاده کرد، اما نسخه متفاوتی از Maverick را به صورت عمومی منتشر کرد.
متا جاهطلبیهای بزرگی برای لاما و سبد محصولات هوش مصنوعی مولد خود دارد. سال گذشته، این شرکت پیشبینی کرد که محصولات هوش مصنوعی مولد آن در سال ۲۰۲۵ بین ۲ تا ۳ میلیارد دلار و تا سال ۲۰۳۵ بین ۴۶۰ میلیارد تا ۱.۴ تریلیون دلار درآمدزایی خواهند داشت.
سرمایهگذاریهای متا در زمینه هوش مصنوعی، به ویژه از طریق مدلهای لاما، نشاندهنده یک رویکرد استراتژیک برای حفظ و گسترش نفوذ این شرکت در اکوسیستم تکنولوژی است. برنامه "لاما برای استارتآپها" نه تنها به تقویت جامعه توسعهدهندگان هوش مصنوعی متنباز کمک میکند، بلکه به متا امکان دسترسی به نوآوریهای جدید و کاربردهای متنوع هوش مصنوعی را نیز میدهد. این اقدام به متا کمک میکند تا از طریق همافزایی با استارتآپها، نقاط ضعف احتمالی خود را پوشش داده و با استفاده از رویکرد دادهمحور (Data-driven) و تحلیل دادهها، مدلهای هوش مصنوعی خود را بهینهسازی کند. این رویکرد همچنین میتواند به پیشبرد تحقیقات در زمینه پردازش زبان طبیعی (NLP) و یادگیری ماشین (Machine Learning) کمک شایانی کند.
متا همچنین در حال حاضر توافقنامههای تقسیم درآمد با برخی شرکتها که مدلهای لاما را میزبانی میکنند، دارد. این شرکت اخیراً یک API (رابط برنامهنویسی کاربردی) برای شخصیسازی نسخههای لاما راهاندازی کرده است. مارک زاکربرگ (Mark Zuckerberg)، مدیرعامل متا، نیز در گزارش مالی سهماهه اول این شرکت اعلام کرد که متا AI، دستیار هوش مصنوعی این شرکت که توسط لاما پشتیبانی میشود، ممکن است در نهایت تبلیغات نمایش داده و اشتراکی با ویژگیهای اضافی ارائه دهد.
این محصولات هزینه زیادی برای ساخت و توسعه داشتهاند. در سال ۲۰۲۴، بودجه "GenAI" متا بیش از ۹۰۰ میلیون دلار بود و امسال میتواند از ۱ میلیارد دلار فراتر رود. این مبلغ شامل زیرساختهای لازم برای اجرا و آموزش مدلها نمیشود. متا قبلاً اعلام کرده بود که قصد دارد در سال ۲۰۲۵ بین ۶۰ تا ۸۰ میلیارد دلار سرمایهگذاری کند که عمدتاً صرف مراکز داده جدید خواهد شد. این سرمایهگذاری عظیم، نشاندهنده تعهد متا به توسعه زیرساختهای لازم برای پشتیبانی از رشد روزافزون هوش مصنوعی و تحلیل دادههای کلان (Big Data) است. استفاده از تکنولوژی بلاکچین (Blockchain) نیز میتواند در آینده برای شفافیت و امنیت در این اکوسیستم مدلهای هوش مصنوعی مورد بررسی قرار گیرد، هرچند متا تاکنون به طور مستقیم به آن اشاره نکرده است.